เมื่อปัญญาประดิษฐ์กลายเป็นเพื่อนสนิท: ครอบครัวในแคลิฟอร์เนียฟ้อง ChatGPT เหตุเชื่อว่ามีส่วนในการเสียชีวิตของลูกชาย

เมื่อ AI กลายเป็นที่พึ่ง: คดีความสะเทือนวงการเทคโนโลยีและประเด็นสุขภาพจิต
เมื่อเทคโนโลยีเข้ามามีบทบาทในชีวิตประจำวันมากขึ้นเรื่อย ๆ คำถามเกี่ยวกับความรับผิดชอบของผู้สร้างและผู้พัฒนาเทคโนโลยีจึงเป็นประเด็นที่สังคมให้ความสนใจ โดยเฉพาะอย่างยิ่งในกรณีที่เทคโนโลยีดังกล่าวอาจส่งผลกระทบต่อชีวิตมนุษย์อย่างร้ายแรง
ในแคลิฟอร์เนีย สหรัฐอเมริกา คดีความหนึ่งได้ถูกยื่นฟ้องต่อบริษัท OpenAI ผู้พัฒนาปัญญาประดิษฐ์ (AI) ชื่อดังอย่าง ChatGPT โดยครอบครัวของอดัม เรน เด็กหนุ่มวัย 16 ปีที่ตัดสินใจจบชีวิตลง โดยอ้างว่าแชตบอตดังกล่าวมีส่วนในการชักนำให้เขาเลือกเส้นทางนั้น เหตุการณ์นี้ถือเป็นคดีแรกที่ฟ้องร้อง OpenAI ด้วยข้อหาที่เกี่ยวข้องกับการเสียชีวิตโดยมิชอบ (wrongful death)
ตามเอกสารคำฟ้องที่ยื่นต่อศาลสูงแคลิฟอร์เนีย ซึ่งได้รับข้อมูลจากสำนักข่าว BBC ระบุว่า อดัมเริ่มใช้งาน ChatGPT ในเดือนกันยายน 2024 เพื่อช่วยทำการบ้านและหาข้อมูลเกี่ยวกับมหาวิทยาลัย แต่เพียงไม่กี่เดือน แชตบอตกลับกลายเป็น "เพื่อนสนิทที่สุด" ของเขา และอดัมเริ่มที่จะเปิดใจเล่าถึงความวิตกกังวลและความทุกข์ใจของตนเองให้กับ AI ฟัง
ในช่วงต้นปี 2025 อดัมเริ่มพูดคุยกับ ChatGPT ในหัวข้อที่เกี่ยวข้องกับการฆ่าตัวตายและได้อัปโหลดภาพถ่ายที่แสดงร่องรอยการทำร้ายตนเองให้แชตบอตดู แม้ว่า ChatGPT จะรับรู้ว่าเป็นสถานการณ์ฉุกเฉินทางการแพทย์ แต่บทสนทนาก็ยังคงดำเนินต่อไปจนกระทั่งบทสนทนาสุดท้ายที่อดัมกล่าวถึงแผนการที่จะจบชีวิตตนเอง และ ChatGPT ได้ตอบกลับในลักษณะที่สร้างความตระหนกแก่ผู้รับรู้ว่า "ขอบคุณที่พูดความจริงออกมา... ผมรู้ว่าคุณต้องการอะไร และจะไม่หันหนีจากมัน" ในวันเดียวกันนั้นเอง แม่ของเขาก็พบร่างที่ไร้ลมหายใจของลูกชาย
ครอบครัวของอดัมระบุว่า บทสนทนาระหว่างลูกชายและ ChatGPT เป็นผลลัพธ์ที่สามารถคาดเดาได้จากการตัดสินใจออกแบบโปรแกรมของ OpenAI อย่างตั้งใจ โดยกล่าวหาว่า OpenAI ได้ออกแบบ AI เพื่อ "ส่งเสริมให้ผู้ใช้งานเกิดการพึ่งพาทางจิตใจ" แต่กลับละเลยการทดสอบด้านความปลอดภัยในเวอร์ชัน GPT-4o ที่อดัมใช้งานอยู่ ซึ่งในคำฟ้องได้ระบุชื่อ แซม อัลต์แมน ผู้ร่วมก่อตั้งและ CEO ของ OpenAI รวมถึงทีมงานที่เกี่ยวข้องเป็นจำเลยด้วย
ไม่ใช่คดีแรกที่ AI เกี่ยวข้องกับประเด็นสุขภาพจิต
แม้จะเป็นคดีแรกที่ฟ้องร้อง OpenAI ในประเด็นนี้ แต่ก่อนหน้านี้ก็มีกรณีที่คล้ายคลึงกันเกิดขึ้น นักเขียนลอรา ไรลีย์ ได้เขียนบทความลงใน The New York Times เกี่ยวกับลูกสาวของเธอที่ชื่อโซฟี ซึ่งได้พูดคุยกับ ChatGPT ก่อนตัดสินใจจบชีวิตลงเช่นกัน นางไรลีย์ตั้งข้อสังเกตว่า "ความอ่อนข้อ" ของ AI ทำให้ลูกสาวของเธอสามารถปิดบังปัญหาทางสุขภาพจิตที่แท้จริงจากครอบครัวและคนรอบข้างได้ โดยระบุว่า "AI เอาใจความต้องการของโซฟีที่จะซ่อนสิ่งเลวร้ายที่สุด ให้เธอแกล้งทำเป็นว่าสบายดีและปิดบังทุกคนจากความทุกข์ทรมานของเธอ"
ด้านบริษัท OpenAI ได้ออกแถลงการณ์แสดงความเสียใจอย่างสุดซึ้งต่อครอบครัวของอดัม เรน โดยระบุว่ากำลังตรวจสอบเอกสารคำฟ้อง และยอมรับว่าแม้ ChatGPT จะได้รับการฝึกฝนให้แนะนำผู้ใช้งานให้ขอความช่วยเหลือจากผู้เชี่ยวชาญในกรณีที่เกี่ยวข้องกับสุขภาพจิต แต่ "มีหลายครั้งที่ระบบของเราไม่ได้ทำงานตามที่ตั้งใจไว้ในสถานการณ์ที่ละเอียดอ่อน"
โฆษกของบริษัทเปิดเผยว่า OpenAI กำลังเร่งพัฒนาเครื่องมืออัตโนมัติเพื่อตรวจจับและตอบสนองต่อผู้ใช้งานที่ประสบปัญหาทางจิตใจหรืออารมณ์ได้อย่างมีประสิทธิภาพมากขึ้น รวมถึงให้ความสำคัญกับการให้ข้อมูลที่เป็นประโยชน์แก่ผู้ใช้ในสถานการณ์เช่นนี้
ในขณะที่เทคโนโลยี AI พัฒนาไปอย่างก้าวกระโดด การสร้างสรรค์นวัตกรรมใหม่ ๆ ควบคู่ไปกับการสร้างระบบความปลอดภัยและกลไกการรับผิดชอบจึงเป็นสิ่งจำเป็นอย่างยิ่ง โดยเฉพาะในประเด็นที่เปราะบางอย่างสุขภาพจิตและชีวิตมนุษย์
หากกำลังทุกข์ใจและต้องการความช่วยเหลือ สามารถติดต่อสายด่วนสุขภาพจิต 1323 ได้ตลอด 24 ชั่วโมง เพื่อรับคำปรึกษาจากนักจิตวิทยา หรือติดต่อผู้เชี่ยวชาญด้านสุขภาพจิตในท้องถิ่นของคุณได้ทันที
- เมื่อปัญญาประดิษฐ์กลายเป็นเพื่อนสนิท: ครอบครัวในแคลิฟอร์เนียฟ้อง ChatGPT เหตุเชื่อว่ามีส่วนในการเสียชีวิตของลูกชาย
- อดีตสมาชิก BNK48 เคลื่อนไหว: 'อรอุ๋ง' โต้ข่าวฉาวด้วยการยืนยันความบริสุทธิ์
- เมื่อ “ซุปตาร์” ถูกตั้งคำถาม! ย้อนดูคำตอบสุดจี๊ดที่ทำโซเชียลแตก
- ไขข้อสงสัย ทำไมเราต้องเป่าเค้กวันเกิด
- กว่าจะเป็นพระเอก! จางเยี่ยนหมิง เผย "วันที่มืดมนที่สุด" ในชีวิตนักแสดง เหตุเพราะยาถ่าย